摘要。大型语言模型(LLMS)的进步已经开放了自然语言处理的新边界,尤其是在医疗保健等特殊领域。在本文中,我们提出了基于课程的微调(ICFT)框架,以增强医学大语言模型(MLLM)的发电能力。基于课程的学习,双阶段记忆协调和参数效果,以实现从一般语言知识到强大的领域特定专业知识的逐步过渡。跨不同医学NLP任务的实验结果,包括问题,偏好分类和响应产生,表明ICFT始终超过最先进的基准,从而提高了准确性和效率。进一步的分析揭示了该框架概括不见数据,减少错误并提供各种相关的医学响应的能力。这些发现将ICFT建立为适应LLM的强大和可扩展解决方案,以对现实世界中的医疗保健应用程序造成实际的利益。
![arxiv:2502.00832v1 [CS.CL] 2025年2月2日PDF文件第1页](/bimg/a/a2276d6874930bcefb345c6fa0316b55edfda467.webp)
![arxiv:2502.00832v1 [CS.CL] 2025年2月2日PDF文件第2页](/bimg/b/bfeb7c555f6b53ca8920c454d51a559f1e504898.webp)
![arxiv:2502.00832v1 [CS.CL] 2025年2月2日PDF文件第3页](/bimg/e/e49d19c180e44f2681f907e53189caac602da9ff.webp)
![arxiv:2502.00832v1 [CS.CL] 2025年2月2日PDF文件第4页](/bimg/e/e27844465ca58146eb407e2364dd8db6cdd4d4b2.webp)
![arxiv:2502.00832v1 [CS.CL] 2025年2月2日PDF文件第5页](/bimg/0/0eb8bb9b7b13c58e31c1850afccbb69c1786237f.webp)
